Umeće darivanja: Kako korisnici nenamerno ugrožavaju kompanije i svoje karijere time što dele poslovne tajne sa ChatGPT-jem

Da, ChatGPT-4, multimodalni generativni Al četbot je tu, a korisnici gube glavu zbog novih funkcionalnosti. I ko ne bi – ChatGPT-4 prepoznaje unose slika, daje bolje rezultate i ne „halucinira“ toliko koliko prethodnik. Može vam napisati esej, debagovati kod, upasti u sistem i čak i otpevati uspavanku u bližoj budućnosti.
Ipak, da li ste se zapitali kakve su posledice kada ljudima dozvolite pristup tako moćnoj tehnologiji bez nadzora?
Kao sa bilo kojom drugom tehnologijom sa kojom smo se ranije susretali, ne možemo uvek u potpunosti da razumemo kako funkcioniše. Kao rezultat – bar kada je u pitanju ChatGPT – završimo tako što otkrijemo poslovne tajne Al botu.
Bez obzira na to da li je humanoidan, bot zna sve vaše neprijatne tajne.

Vreme Čitanja: 3 min

ChatGPT-4 i korisnički podaci

Ilustracija: Milica M.

ChatGPT, kratki istorijat

ChatGPT-4  je najnoviji model u porodici četbotova OpenAl-a. Objavljen je sredinom marta ali je dostupan samo premijum korisnicima. Besplatna verzija Al bota OpenAl-a i dalje funkcioniše na osnovu porodice jezika GPT-3.5 i sve što vam je potrebno da počnete da ga koristite jeste da napravite nalog.

Verzija ChatGPT-3.5 predstavila nam je prednosti Al-a i pokazala nam kako da koristimo ovu tehnologiju na našu korist. Međutim, bila je takođe najbolji primer pristrasnosti Al-a a postavljena pitanja koja se tiču bezbednosti i sigurnosti bila su suviše ozbiljna da bismo ih mogli ignorisati.

ChatGPT bot

Foto ilustracija: Freepik

OpenAI ozbiljno shvata brige svojih korisnika pa je platforma počela da razvija napredniju verziju četbota. I manje od pola godine nakon prvog predstavljanja četbota, OpenAl je predstavio ChatGPT-4 na tržištu. ChatGPT-4 ima dobre funkcije a najvažnija je njegova sposobnost da razume i analizira unose slika.

Međutim, novi četbot i dalje ima određena ograničenja. S vremena na vreme halucinira i ljudi će na kraju uspeti da mu „provale u sistem“ i pronaći nove načine da ga prevare ili dobiju željeni rezultat. Ali ovog puta, nije namera korisnika ono što brine Al zajednicu.

Izgleda da sad treba da mislimo o inputu. Kada govorimo o inputu, vama je jasno da se svi vaši promptovi i pokušaji da zavirite u ljudski rod očima četbota skladište u bazi podataka, zar ne?

Hrana za Al zver: Da li treba da razmislimo dvaput pre nego što postavimo pitanje četbotu ChatGPT-4?

Sudeći prema izveštaju CyberHavena iz marta 2023, 8,2% zaposlenih je koristilo ChatGPT za posao, a 6,5% su u okviru svojih inputa unosili privatne informacije u vezi sa kompanijom u ChatGPT. I dok ChatGPT, naročito poslednja verzija, može biti od pomoći vašem timu i izuzetan alat za bolju produktivnost, neke kompanije, uključujući JP Morgan, su u procesu blokiranja pristupa  ChatGPT-ju baš zbog zabrinutosti koju izaziva curenje informacija.

Ipak, da li je to tačno?

Za početak, ako posetite veb stranicu ChatGPT General FAQ OpenAl-a, primetićete da OpenAl kaže da pregleda vaše promptove.

image-1

Kao deo naše posvećenosti bezbednom i odgovornom Al-u, mi pregledamo razgovore s ciljem unapređenja naših sistema i kako bismo bili sigurni da je sadržaj u skladu sa našim strategijama i bezbednosnim zahtevima.

Piše na ChatGPT FAQ stranici.

Ali to nije kraj. ChatGPT je četbot, zar ne? I, kako bi napredovao, mora da se obučava na novim i relevantnim podacima. Pa tako, vi prepostavljate, oni su se oslanjali na promptove korisnika  kako bi unapredili ChatGPT.

ChatGPT FAQ

Izvor: ChatGPT FAQ page

Iako je platforma OpenAl promenila svoju strategiju u kojoj se sada kaže da OpenAl neće koristiti inpute korisnika za obuku osim ako korisnik jasno ne odluči da doprinese svojim promptovima. Međutim, ChatGPT postoji na tržištu preko šest meseci i za to vreme je sakupio veliki broj osetljivih podataka.

Koliko ljudi deli osetljive podatke na platformi OpenAl?

U izveštaju CyberHavena o upotrebi ChatGPT-ja takođe se kaže da „osetljivi podaci čine ukupno 11% onog što zaposleni ubacuju u ChatGPT ali pošto je ChatGPT jako popularan i beleži eksponencijalni rast, izgleda da je to previše informacija. U periodu od 26. februara do 4. marta, zaposleni u jednoj prosečnoj kompaniji sa 100.000 zaposlenih uneli su poverljive informacije u ChatGPT 199 puta, podatke klijenata 173 puta i izvorni kod (source code) 159 puta.“

Osetljivi podaci

Foto ilustracija: Freepik

Pa tako, možda se sada pitate šta se u ovom slučaju smatra osetljivim informacijama.

Na početku, zaposleni dele poslovne tajne sa ChatGPT-jem. Otkrivanje ove vrste informacija dok ste pod ugovorom može napraviti probleme za vašeg poslodavca ali vas isto tako može koštati karijere.

Dame i gospodo, tih odlazak iz firme je old-school pristup. Samo podelite poslovne tajne vaše kompanije sa ChatGPT-jem i možda ćete dobiti otkaz. Možda čak i tužbu!

Zaposleni takođe dele podatke o klijentima sa ChatGPT-jem, što je često izuzetno poverljivo. Podaci sa medicinskog kartona pacijenta, na primer, spadaju u tu kategoriju.

Ne zaboravite da, kao što smo ranije rekli,  u novoj strategiji OpenAl-a se kaže da kompanija neće koristiti podatke korisnika u obuci svog Al četbota. Međutim, oni još uvek sakupljaju podatke kako bi nadzirali pogrešnu upotrebu i zloupotrebu.

Oni ih brišu nakon 30 dana, pa je novo ažuriranje strategije daleko od revolucionarnog.

S tim u vezi, obratite pažnju na promptove koje kreirate za četbotove. Čak i ako niste dozvolili OpenAl-u da sakuplja vaše podatke za obuku, i dalje bi bilo najpametnije ne unositi osetljive podatke iz vaših promptova. To uključuje imena, adrese, izvorni kod pod okriljem vaše kompanije ili bilo šta drugo što biste želeli da sakrijete od stranaca.

Jelena je pisac sadržaja posvećena učenju o kripto valutama. Njeni hobiji su igranje šaha, crtanje, kuvanje i odlazak u duge šetnje. Tokom zime svoje slobodno vreme obično provodi čitajući knjige.

Prijavi se na novosti.

Prijavi se na novosti.